Miniaturisierung: Von der Elektronenröhre zum Mikrochip

Miniaturisierung: Von der Elektronenröhre zum Mikrochip
Miniaturisierung: Von der Elektronenröhre zum Mikrochip
 
Das sicherlich den meisten Menschen am besten vertraute Beispiel einer fortwährenden Miniaturisierung von Bauteilen ist die Mikroelektronik und hier vor allem die Computertechnik.
 
Komplizierte oder langwierige Berechnungen durch mechanische Hilfsmittel zu erleichtern und zu beschleunigen, ist ein altes Anliegen von Wissenschaft und Technik. Schon im Altertum diente der Abakus als Rechenhilfe, darauf basierende Weiterentwicklungen sind in Russland, China und Japan noch heute in Gebrauch und bei manchen Aufgaben sogar Taschenrechnern überlegen. Im 17. Jahrhundert entwarf der Tübinger Professor W. Schickard die erste, sechsstellig rechnende mechanische Rechenmaschine. Darauf aufbauend konstruierte G. W. Leibniz eine Multiplikationsmaschine. Im Jahr 1832 erfand Charles Babbage die Steuerung mechanischer Rechenmaschinen durch Lochbänder, ein Prinzip, das noch bis in die 70er-Jahre des 20. Jahrhunderts angewendet wurde. In den späten 1930er- und vor allem in den 1940er-Jahren wurden die ersten elektrisch betriebenen Rechenanlagen konstruiert. Wie so oft in der Geschichte der Technik war auch beim Computer ein Krieg die Ursache dafür, die Entwicklungen voranzutreiben, um den erreichten technischen Vorsprung dann in einen Vorteil auf den Schlachtfeldern umzumünzen. Die so entstandenen ersten elektromechanisch arbeitenden Computer erinnern in nichts an die uns heute vertrauten Personalcomputer: »MARK 1«, von der US-Regierung nach der Katastrophe von Pearl Harbour bei IBM in Auftrag gegeben und 1943 in Betrieb genommen, bestand aus 750 000 einzelnen Bauteilen, davon für die wichtigen Schaltaufgaben 3304 Relais, miteinander verbunden durch 800 Kilometer Draht. MARK 1 wurde durch Lochkarten gesteuert, war 15 Meter lang und 2,50 Meter hoch. Seine Hauptaufgabe bestand in der Berechnung von Geschossflugbahnen für die amerikanischen Streitkräfte. Immerhin benötigte er für die Multiplikation zweier 23-stelliger Zahlen nur drei Sekunden.
 
Auch auf deutscher Seite wurden Anfang der 1940er-Jahre programmgesteuerte elektromechanische Rechner gebaut. Die Maschinen, die Konrad Zuse in Berlin konstruierte, waren sogar — unter anderem weil sie bereits Binärzahlen anstelle von Dezimalzahlen verwendeten — kleiner, billiger und schneller als der MARK 1. Sie wurden erst relativ spät militärisch genutzt, so etwa der 1941 gebaute »Z3« zur Berechnung besserer Flügelprofile für Kampfflugzeuge.
 
Der erste wirklich universell einsetzbare elektronische — also ohne bewegliche mechanische Teile auskommende — Rechner war dann der amerikanische ENIAC (Electronic Numerical Integrator and Calculator), ein 30 Tonnen schwerer, 24 Meter langer und 5,50 Meter hoher Koloss mit 17 468 Elektronenröhren. 1945 in Dienst gestellt, war er bereits um einen Faktor 1000 schneller als der MARK 1. Die Abwärme, die von den Röhren erzeugt wurde, erforderte umfangreiche Kühlmaßnahmen. Trotzdem versagte pro Woche mindestens eine der Röhren ihren Dienst.
 
Rechnen mit Röhren
 
Was für heutige Computer die auf Mikrochips zusammengeschalteten Transistoren und Dioden sind, waren für die ersten Rechenmaschinen die Elektronenröhren. Es ist daher nahe liegend, einen kurzen Blick auf dieses erste »Paradepferd« der Elektronik zu werfen.
 
Die Erfindung der Elektronenröhre geht zurück auf Thomas A. Edison, der die Glühemission entdeckte: Von einem zum Glühen gebrachten Metalldraht zu einem in dessen Nähe befindlichen zweiten Metallkontakt, beide in einer evakuierten Glashülle angebracht, kann ein elektrischer Strom fließen. Später erst wurde klar, dass der glühende Draht (die Glühkathode) Elektronen emittiert, die vom zweiten Kontakt (der Anode) aufgenommen werden können. Wenn man zwischen Glühkathode und Anode eine Spannung anlegt, sodass sich die negative Seite an der Kathode befindet, ist dieser Stromfluss durch das Vakuum hindurch gut zu beobachten. Polt man die Spannung zwischen den beiden Elektroden um, so kommt kein Stromfluss zustande. Eine derartige Anordnung, Diode genannt, ist ein Gleichrichter, sie wandelt Wechselstrom in (pulsierenden) Gleichstrom um. Durch Anbringen einer weiteren, löchrig gestalteten Elektrode (genannt Gitter) zwischen diesen beiden Elektroden entsteht die Triode oder Verstärkerröhre. Schaltet man Glühkathode und Anode in Durchlassrichtung und legt man an das Gitter eine Spannung an, so wird der Fluss der Elektronen von der Glühkathode zur Platte unterstützt oder gehemmt, je nach Polarität dieser Steuerspannung. Liegt eine deutlich negative Spannung am Gitter, so werden die emittierten Elektronen an ihrem Flug zur Anode ganz gehindert, der Stromfluss also unterbrochen, bei niedrigerer Steuerspannung verschwindet diese Behinderung jedoch schnell. Auf diese Weise kann mittels einer relativ geringen Steuerspannung ein großer Strom geschaltet oder in seiner Stärke gesteuert werden. Die Triode ist somit als Schalter und Verstärker einsetzbar, sie war die Grundlage der frühen Funk- und Radiotechnik sowie auch der ersten elektronischen Rechenanlagen. Ihre Bedeutung ermisst man auch daran, dass die heutigen Halbleiterbauteile Diode und Transistor von Struktur und Funktion her den früheren Röhrenbauteilen sehr ähnlich, ihnen sozusagen »nachempfunden« sind.
 
Das Dilemma der Elektronenröhre
 
Der Notwendigkeit, in komplexen Geräten eine große Zahl von Elektronenröhren zu benutzen, standen etliche Nachteile dieser Bauteile entgegen: Röhren sind kaum miniaturisierbar, denn die Elektroden müssen zueinander gewisse Mindestabstände einhalten, damit es nicht zu spontanen Überschlägen kommt. Außerdem neigen Röhren dazu, undicht zu werden oder zu brechen. Zudem brauchen sie nach dem Einschalten des Gerätes ein paar Minuten, um ihre Betriebstemperatur zu erreichen, und sie benötigen relativ viel elektrische Energie, von der ein erheblicher Teil in Wärme umgewandelt und damit nicht zur Informationsverarbeitung genutzt wird. Die Forderung nach neuen, zuverlässigeren und kleineren Bauteilen wurde daher seit Ende des zweiten Weltkriegs verständlicherweise immer lauter. Es war also absehbar, dass die ersten elektronischen Rechenmaschinen, so nützlich sie sein mochten, einer grundsätzlichen technischen Verbesserung bedurften, um einerseits ihre Zuverlässigkeit zu steigern und um sie andererseits einem größeren Anwenderkreis zugänglich zu machen, wofür vor allem die Herstellungskosten deutlich reduziert werden mussten. Dass die Rechenleistung eines ENIAC heute jederzeit spielend von einem Laptop erbracht werden kann, dessen zentrale Schaltkreise auf einer gerade spielkartengroßen Platine untergebracht sind, verdanken wir der Lösung dieser Probleme. Möglich wurde diese Entwicklung durch die Nutzbarmachung einer ebenfalls erst in diesem Jahrhundert ausführlich untersuchten Gruppe von Materialien, der Halbleiter, und durch die anschließende rasante Entwicklung der Fertigung miniaturisierter Halbleiterbauteile.
 
 Halbleiter erobern die Technik
 
Legt man eine elektrische Spannung an ein Objekt aus Kupfer, Silber oder Stahl, so fließt ein Strom. Je größer die Spannung, desto größer der Strom durch diesen Leiter. Das Verhältnis aus Strom und Spannung ist der elektrische Widerstand. Ein Nichtleiter oder Isolator, wie zum Beispiel Glas oder Kunststoff, zeigt keine oder nur extrem geringe Stromleitung, er setzt dem Strom einen praktisch unendlich großen Widerstand entgegen.
 
Eine kleine Gruppe von chemischen Elementen und Verbindungen konnte lange Zeit keiner dieser beiden Gruppen zugeordnet werden. Sie besitzen, vor allem in reinem Zustand, einen relativ großen elektrischen Widerstand, der interessanterweise mit zunehmender Temperatur immer kleiner wird. Um das Verhalten dieser Halbleiter zu verstehen, muss man sich die atomare Struktur der Materie und vor allem den Aufbau der Atome vor Augen führen.
 
Energieniveaus
 
Die Elektronenhülle eines Atoms ist, so das wohl wichtigste Ergebnis der Quantentheorie, streng in Orbitale, die jeweils unterschiedlichen diskreten Energieniveaus entsprechen, strukturiert.
 
Für alle chemischen Reaktionen ist die Tatsache verantwortlich, dass Atome an Stabilität gewinnen, wenn ihre Elektronenstruktur ein gewisses Maß an Symmetrie erreicht. So fehlen beispielsweise der äußeren Schale des Sauerstoffatoms (chemisches Symbol O, acht Elektronen) zwei Elektronen, um voll gefüllt zu sein. Dem Wasserstoffatom (chemisches Symbol H, ein Elektron) fehlt ein Elektron zur Füllung seiner Elektronenhülle. Deshalb kann ein Sauerstoffatom mit zwei Wasserstoffatomen ein recht stabiles Molekül bilden. Dabei nehmen die äußeren Elektronen Energieniveaus ein, die gewissermaßen zum gesamten Verband der drei Atome gehören, Molekülorbitale. Die Atome teilen sich also Elektronen, je zwei Elektronen ergeben eine »chemische Bindung«; das Sauerstoffatom bildet mit jedem der Wasserstoffatome eine solche Bindung. Das so entstandene Wassermolekül besitzt gemäß seiner Zusammensetzung aus einem Sauerstoff- und zwei Wasserstoffatomen die chemische Formel H2O.
 
Elektronen im Festkörper
 
Auch viele gleichartige Atome können miteinander reagieren und Bindungen eingehen. So besteht zum Beispiel ein zwölf Gramm schwerer Diamant aus etwa 6 · 1023 Kohlenstoffatomen, von denen jedes mit jeweils vier Nachbarn je eine chemische Bindung (Valenz) ausbildet. Angeordnet sind die Atome in einem regelmäßigen dreidimensionalen Gitter, dem Kristallgitter. Die durch das gemeinsame wechselseitige Teilen von Elektronen entstehenden Energieniveaus sind in einem Kristall nicht mehr einzelnen Atomen zuzuordnen, sondern letztlich dem gesamten Festkörper. Da sich diese vielen gemeinsamen Orbitale aufgrund quantenmechanischer Gesetze jeweils leicht voneinander unterscheiden müssen, weichen sie sich gewissermaßen gegenseitig leicht aus, und das resultierende Energieniveauschema eines Festkörpers besteht nicht mehr aus vielen einzelnen Niveaus, sondern aus erlaubten Energiebereichen, den Bändern, die durch Bandlücken voneinander getrennt sind. Von Interesse für das Verständnis des Verhaltens von Halbleitern sind nur das Leitungs- und das Valenzband. Dabei ist das Leitungsband das äußerste Energieband im Festkörper. Befinden sich dort Elektronen, so sind sie darin frei beweglich und können zur elektrischen Leitung des Festkörpers beitragen. Das unter dem Leitungsband gelegene Energieband eines Festkörpers wird Valenzband genannt. Die nicht frei beweglichen Elektronen dieses Bandes bewirken die chemischen Bindungen oder Valenzen im Kristall.
 
Die Elektronen des Valenzbandes sind räumlich fixiert, also nicht verschiebbar. Legt man eine elektrische Spannung an einen Körper an, der nur solche gebundenen Elektronen enthält, können diese nicht durch den Kristall »hindurchgeschoben« werden, es fließt kein Strom. Keines der Elektronen ist ja in der Lage, Energie aufzunehmen, alle Niveaus im Band sind besetzt. Nur dann, wenn man durch Energiezufuhr Elektronen aus dem Valenzband in das Leitungsband befördert, tritt Leitfähigkeit auf. Die zum Erreichen dieser Leitfähigkeit zugeführte Energie muss aber, wie beim Atom, mindestens der durch die Bandlücke dargestellten Energiedifferenz zwischen Valenz- und Leitungsband entsprechen. Elektrische Isolatoren besitzen nun eine so große Bandlücke, dass in der Regel ein Anheben von Elektronen in das Leitungsband nur durch Wärmeenergie gar nicht möglich ist, sodass ihre elektrische Leitfähigkeit verschwindet. Auch typische Metalle, wie etwa Natrium oder Kupfer, bilden Kristallgitter aus. Bei ihnen gibt es jedoch stets Elektronen im Leitungsband. Diese können sich so frei zwischen den Gitteratomen bewegen, dass man auch von einem »Elektronengas« spricht.
 
Mithilfe dieses — hier sehr vereinfacht dargestellten — Bändermodells der Festkörper lassen sich die Leitungseigenschaften der Halbleiter gut veranschaulichen: Die Bandlücke ist bei ihnen so schmal, dass einige Elektronen bereits durch Zufuhr von Wärmeenergie aus dem Valenz- in das Leitungsband gehoben werden können. So ist auch verständlich, warum die Leitfähigkeit der Halbleiter mit steigender Temperatur zunimmt: Wird der Kristall wärmer, werden mehr Elektronen in das Leitungsband befördert und stehen dort zur Stromleitung zur Verfügung. Die an sich schon gute Leitfähigkeit der Metalle hingegen sinkt, wenn die Temperatur erhöht wird: Bei höheren Temperaturen werden keine zusätzlichen Leitungselektronen bereitgestellt, und zudem werden die vorhandenen Elektronen in ihrer freien Bewegung dadurch behindert, dass sie viel häu- figer mit den Molekülen des Kristallrumpfes zusammenstoßen, die bei höheren Temperaturen heftiger schwingen. Folgerichtig wird ein Halbleiter bei Abkühlung bis fast auf den absoluten Nullpunkt (—273 Grad Celsius) zum Isolator: Ohne thermische Energie kann kein Elektron in das Leitungsband gehoben werden.
 
Vom Sinn gewollter Verschmutzung: Donatoren und Akzeptoren
 
Reine Halbleiter verhalten sich also unspektakulär und waren daher lange Zeit technisch nicht sehr interessant. Dies änderte sich jedoch, als man entdeckte, dass die Leitfähigkeit von reinen Halbleitern durch »Verschmutzung« mit anderen Materialien gezielt beeinflusst werden kann. Der Fachbegriff hierfür ist Dotierung. Als Beispiel soll der Halbleiter Germanium dienen. Germanium hat, wie Kohlenstoff, vier Elektronen im äußersten Atomorbital und bildet Kristalle desselben Typs wie Diamant aus. Dotiert man einen Germaniumkristall beispielsweise mit Arsenatomen, welche jeweils fünf Außenelektronen aufweisen, so werden diese Fremdatome zwar in das Kristallgitter eingebaut, jedes hat aber ein ungebundenes Elektron »übrig«. Dieses ist nur schwach an seinen Atomrumpf gebunden, sein Energieniveau liegt in der Bandlücke des Germaniumkristalls knapp unterhalb des Leitungsbands. Das bedeutet, dass es durch geringe Energiezufuhr in das Leitungsband angehoben werden und dort zur Leitfähigkeit beitragen kann! Der elektrische Widerstand des dotierten Materials ist also geringer als der des reinen. Ein Halbleiter, der auf diese Weise durch ein Element mit Elektronenüberschuss, einen Donator, dotiert wurde, nennt man n-dotiert.
 
Man kann zur Dotierung eines Germaniumkristalls auch Atome verwenden, die nicht mehr, sondern weniger Außenelektronen als Germanium mitbringen. Man führt somit »fehlende Elektronen«, Defektelektronen oder Löcher, in den Halbleiter ein. Ein solchermaßen »verschmutzter« Halbleiter heißt p-dotiert, das dotierende Element mit Elektronenmangel nennt man in diesem Fall Akzeptor. Ein Beispiel für einen Akzeptor ist das Element Bor. Das Boratom besitzt nur drei Außenelektronen. Dies führt dazu, dass einem benachbarten Germaniumatom ein Elektron als Bindungspartner fehlt, es gibt also ein »Loch« in der Elektronenstruktur. Elektronen können nun aus dem Valenzband heraus in solche »Löcher« angehoben werden, wobei sie im Valenzband selbst ein Loch hinterlassen. Man könnte auch sagen, das Loch wandert. Die Elektronen, die in solche Löcher springen, sind natürlich etwas schwächer an ihr Atom gebunden und nehmen deshalb Energieniveaus knapp oberhalb des Valenzbandes ein. Obwohl nun Löcher im Valenzband vorliegen und das Leitungsband leer ist, wird durch das Wandern der Löcher effektiv elektrische Ladung bewegt, sodass auch durch das Dotieren mit Elektronenmangel-Elementen wie Bor die elektrische Leitfähigkeit erhöht wird. Aus diesem Grund werden die Löcher oft wie reale, positiv geladene Teilchen behandelt.
 
p-n-Übergänge, Dioden und Transistoren
 
Wie kann man sich nun die Eigenschaften dotierter Halbleiter zunutze machen? Das einfachste Halbleiterbauelement ergibt sich, wenn man in einem Halbleiterkristall einen n-dotierten und einen p-dotierten Bereich direkt nebeneinander realisiert. Dort, wo beide Bereiche aneinander grenzen, werden sich einige der freien Elektronen des n-Bereichs in die Löcher des p-Bereichs begeben und diese füllen. Durch diese Elektron-Loch-Rekombination entsteht eine Zone, in der die Zahl der Ladungsträger (Elektronen und Löcher) reduziert ist, die Verarmungszone. Legt man an den p-dotierten Bereich den positiven und an den n-dotierten Bereich den negativen Pol einer Spannungsquelle an, so werden Defektelektronen und Elektronen aufeinander zubewegt und es kann ein elektrischer Strom fließen. Polt man jedoch die Spannung um, so werden die beiden Ladungsträgerarten durch die Spannung sogar noch besser voneinander fern gehalten, die Verarmungszone wird noch breiter, und es kann kein Strom fließen. Eine solche Anordnung nennt man Halbleiterdiode. Man nutzt sie primär zum Gleichrichten von Wechselstrom.
 
Es lag nahe, auch eine Triode zum Schalten und Modulieren von Spannungen und Strömen durch Halbleiter zu realisieren. Einfache Halbleitertrioden kann man sich durch die Reihenschaltung zweier p-n-Übergänge vorstellen, entweder durch eine Materialabfolge n-p-n oder p-n-p. Jede Zone wird dazu mit einer Elektrode versehen. Die Wirkungsweise sei anhand der p-n-p-Abfolge erläutert. An die linke Grenzschicht (p-n) werde eine kleine Spannung angelegt, die diesen Übergang in Durchlassrichtung polt, während die rechte (n-p) Grenzschicht durch eine größere Spannung in Sperrrichtung gepolt sein soll. Dann fließen Defektelektronen aus der linken Elektrode, dem Emitter, fast ungehindert über die linke p-Seite zur n-Zone. Wenn diese dünn genug ist, werden die Defektelektronen jetzt in den Einfluss der größeren Spannung an der rechten Grenzschicht geraten und zur negativen Elektrode an der rechten p-Zone, dem Kollektor, hin beschleunigt. Dadurch wird die rechte Grenzschicht leitfähig und die dort anliegende Spannung kann einen hohen Strom von der rechten p-Zone zur gemeinsamen Elektrode an der n-Zone, der »Basis«, auslösen. Mit einer relativ kleinen Spannung kann also ein großer Strom gesteuert werden. Weil Ladungsträger durch einen eigentlich großen Widerstand (englisch Resistor) hindurch »transferiert« werden, erhielt das Halbleiterbauelement den Namen Transistor.
 
Logische Gatter und Speicherzellen
 
Transistoren können auf unterschiedliche Weise miteinander kombiniert werden. So lassen sich mit nur wenigen von ihnen alle logischen Grundfunktionen (UND, ODER, NICHT) leicht realisieren. Aus solchen Kombinationen (»Gattern«) werden wiederum kompliziertere Bausteine der Computertechnik (von Schieberegistern und Arithmetikeinheiten bis hin zum Mikroprozessor) zusammengesetzt. Transistoren lassen sich insbesondere so miteinander verschalten, dass der Schaltzustand eines Transistors durch einen anderen abgefragt werden kann. Solche »Flipflops« stellten die ersten mit diskreten Transistoren aufgebauten Speicherzellen dar. Noch einfacher lässt sich ein Bit durch das Ausnutzen der Zustände eines Kondensators (geladen — nicht geladen) speichern — zusammen mit einem Transistor ist dies das übliche, in der Complementary-Metal-Oxide-Semiconductor-Technik (CMOS-Technik) ausgeführte Speicherelement. Die Anwendung entscheidet letztlich darüber, welche Technologie zum Einsatz kommt.
 
Silicium und Germanium
 
Das wichtigste und auf der Erde bei weitem am häufigsten vorkommende Halbleiterelement ist Silicium. Silicium ist ein graues, sprödes Metall; es ist mit 26 Prozent nach dem Sauerstoff das zweithäufigste Element der Erdkruste. Als reines Element kommt es nicht vor, sondern als Quarz und in Silicaten, typischen Bestandteilen vieler Gesteine. Quarz kommt in reiner, glasklarer Form als Bergkristall vor. Verwittern Gesteine, so bleiben aufgrund ihrer großen Härte vor allem die Quarzkörner übrig, die wir als Fluss- und Meeressand kennen. In der Mikroelektronik und -technik finden vor allem künstlich gezogene, reine Siliciumkristalle Anwendung.
 
Obwohl Silicium in der Mikroelektronik eine so große Rolle spielt, dass es beispielsweise für das »Silicon Valley« bei San Francisco, die Heimat einiger der wichtigsten Computerhersteller, namensgebend war, ist es doch nicht für alle Anwendungen der geeignetste Halbleiter. Es gibt noch eine Reihe weiterer Elemente, die als Halbleiter industriell genutzt werden, hierzu zählt vor allem das Germanium. Germanium, dem Silicium in seinen chemischen Eigenschaften ähnlich, hat nur einen Anteil von 0,000 56 Prozent an der Erdkruste, kommt in gebundener Form sehr spärlich als Begleiter anderer Metallerze vor und ist deshalb relativ teuer. Gewinnung und Reinigung erfolgen im Wesentlichen wie beim Silicium. Hauptsächlich seine geringere thermische Belastbarkeit und Seltenheit führten dazu, dass dieses Halbleitermaterial, aus dem die ersten Transistoren hergestellt wurden, vom Silicium bald entthront wurde. Trotzdem ist Germanium für etliche elektronische Bauteile unentbehrlich, zum Beispiel für Halbleiterlaser.
 
Die Gewinnung von reinem Germanium und Silicium
 
Silicium kann gewonnen werden, indem man Quarz, der aus der Silicium-Sauerstoff-Verbindung Siliciumdioxid besteht, mit Kohlenstoff reagieren lässt. Dazu wird in Lichtbogenöfen der Quarzsand mit der beigemengten Kohle erhitzt. Dabei verbindet sich der Sauerstoff des Quarzes mit dem Kohlenstoff zu Kohlenoxiden. Das zurückbleibende Silicium weist eine Reinheit von immerhin 99 Prozent auf. Es wird in gasförmige Silane, das sind Silicium-Wasserstoff-Verbindungen, überführt, aus denen sich das Silicium dann in höchster Reinheit gewinnen lässt. Zur Herstellung von elektronischen Bauteilen benötigt man jedoch Einkristalle, also kristalline Festkörper, die über viele Zentimeter hinweg ein einziges, ungestörtes Kristallgitter aufweisen. Dazu wird das Silicium in großen Tiegeln bei über 1410 Grad Celsius geschmolzen und ein kleiner Einkristall als Wachstumskeim in diese Schmelze hineingetaucht. Die Temperatur wird so eingestellt, dass der Einkristallkeim gerade nicht schmilzt, sondern flüssiges Silicium daran erstarren kann. Unter gleichmäßigem Drehen wird der wachsende Einkristall mit einer Geschwindigkeit von etwa einem Millimeter pro Sekunde herausgezogen, und zwar so, dass die Wachstumsfläche sich immer gerade an der Oberfläche der Schmelze befindet. Mit diesem Czochralski-Verfahren entstehen viele Kilogramm schwere zylinderförmige Einkristalle, die aber immer noch zu viele Fremdatome enthalten. Das Reinigen dieser Kristallstäbe erfolgt durch das Zonenschmelzverfahren. Dabei wird der Kristall durch eine Reihe von Heizspulen gezogen, wobei jeweils die Zone, die sich in der Spule befindet, aufschmilzt. Verunreinigungen neigen dazu, sich bei der Rekristallisation nicht in den Kristallverband einzufügen, sondern sich in der verbleibenden Schmelze anzureichern. Durch das Zonenschmelzverfahren schiebt man so die Verunreinigungen sozusagen bis ans Ende des Kristallstabes, dessen gereinigter Hauptteil letztlich nur noch etwa ein Fremdatom in einer Milliarde Siliciumatome enthält.
 
Das Dotieren erfolgte in der Frühzeit der Halbleitertechnologie dadurch, dass man die Fremdatome der Schmelze im geeigneten Verhältnis zumischte. So kann man zur Erzielung einer p-n-p-Struktur zuerst Akzeptormaterial, sodann einen geringen Überschuss an Donatormaterial und danach nochmals mehr Akzeptormaterial beimengen. Ist der Kristall erkaltet, wird die tortenartige p-n-p-Schichtstruktur herausgesägt, beidseitig poliert und in lauter kleine p-n-p-Tortenstückchen von etwa nur einem Quadratmillimeter Größe zerteilt. Eine Herstellung dieser Sandwichstruktur durch Aneinanderfügen dreier unterschiedlich dotierter Kristallstückchen würde im Übrigen nicht funktionieren: Viel zu groß wären die Störungen durch die Kristallgrenzen und durch Oberflächeneffekte.
 
Germanium und auch Silicium können mit einer Reinheit hergestellt werden, die einem Fremdatom auf mehr als eine Milliarde Halbleiteratome entspricht. Eine Dotierung führt zu mindestens einem, auch für spezielle Anwendungen kaum mehr als 100 bis 1000 Fremdatomen auf eine Million Halbleiteratome. Bei n-Dotierung kommt also ein freies Elektron auf 100 bis 1000 Gitteratome. Zum Vergleich: Das Metall Kupfer hat ein freies Elektron pro Gitteratom.
 
Die frühen Transistoren
 
John Bardeen und Walter H. Brattain waren die Ersten, die einen Transistor auf Halbleiterbasis herstellten und den Verstärkungs- effekt nachwiesen. Den ersten funktionierenden Transistor bauten sie am Vortag des Heiligen Abends 1947. Die p-Kontakte bestanden aus zwei dünnen Golddrähten, die von einer zur Feder umfunktionierten Büroklammer auf ein wenige Millimeter großes Stück n-Germanium gedrückt wurden. Immerhin erreichten die beiden Physiker mit diesem Spitzentransistor in den Bell-Laboratorien eine 100fache Signalverstärkung.
 
William Shockley, der Leiter der dortigen Arbeitsgruppe, stellte 1951 den ersten »echten« n-p-n-Transistor aus Germanium vor. Der kostete aber immer noch etliche Dollar, wohingegen man eine Elektronenröhre für 75 Cent bekam. Erst 1954 gelang es, die Gewinnung und Säuberung von Silicium in den Griff zu bekommen und dieses wesentlich billigere Material für die Herstellung von Transistoren zu nutzen. Das Dotieren im Schmelztiegel war sehr aufwendig, weshalb bald versucht wurde, direkt mit dem Lötmaterial zu dotieren. Benutzte man zum Beispiel Indium zum Anlöten der Emitter- und Kollektoranschlüsse, so konnte während des Anlötens eine gewisse Menge Indium in das n-leitende Grundmaterial eindiffundieren und dieses p-dotieren. Diese Methode ergab den legierten Flächentransistor. Anwendung fanden die ersten Transistoren in Hörgeräten und Radios, aber vor allem in der Rüstungs- und Raumfahrtindustrie. Das große Manko bestand darin, dass man aus einem Halbleiterkristall durch Zerteilen zwar viele kleine Transistoren gewinnen konnte, dass sie dann aber wieder durch aufwendiges Verdrahten miteinander verbunden werden mussten.
 
 Massenherstellung und Integration
 
Ein Radarexperte namens G. W. A. Dummer hatte die großartige Idee, Transistoren nicht durch aufwendiges Zerschneiden von Halbleiterschichtstrukturen herzustellen, sondern die Strukturen mit unterschiedlicher Dotierung auf einer einzigen homogenen Halbleiterscheibe nebeneinander zu realisieren. Verwirklicht wurde diese Idee von John St. Clair Kilby. Er konnte 1958 beweisen, dass sich alle für eine komplexe Schaltung nötigen Bauelemente — Widerstände, Kondensatoren, Dioden und Transistoren — auf einem Halbleiterstückchen herstellen ließen. Für diese auf kleiner Fläche zusammengefassten Bauteile wurde die Bezeichnung »integrierte Schaltkreise«, englisch: Integrated Circuit, gewählt, oft wird auch nur die Abkürzung IC verwendet.
 
Waffelbacken
 
Fast zeitgleich mit St. Clair Kilby entwickelte Robert Noyce den Silicium-Planartransistor. Das Grundprinzip des Herstellungsverfahrens besteht darin, auf einer Scheibe aus höchstreinem Silicium, der »Waffel«, englisch: Wafer, die unterschiedlichen Strukturen der Halbleiterbauteile quasi aufzudrucken. Nach Herauslösen überschüssiger Teile und Erhitzen kann der Wafer schließlich in einzelne »Schnipsel« (englisch: Chips) zurechtgesägt werden. Aus der großen Ähnlichkeit zur Drucktechnik erklärt sich der Name »Lithographieverfahren«. Allerdings sind meistens mehrere Stufen notwendig, in denen abgedeckt, beschichtet, bedruckt und wieder herausgelöst wird, bis eine fertige Schaltung hergestellt ist. Darüber hinaus müssen natürlich höchste Reinheit und Präzision gewährleistet sein.
 
Lithographie und Photolack
 
Um aus einem Wafer eine Vielzahl identischer Chips herzustellen, wird das Grundmaterial zuerst einmal mit einer dünnen Schicht aus Siliciumdioxid bedeckt, welche alle abgedeckten Schichten vor weiterer Bearbeitung schützt. Die Bedeckung geschieht bei erhöhter Temperatur in der oxidierenden Atmosphäre eines Ofens. Sodann wird diese Schicht wiederum mit einer dünnen Schicht aus Photolack abgedeckt. Ein Photolack oder Resist ist eine flüssige, härtbare Mischung organischer Verbindungen, die bei Belichtung entweder in einem bestimmten Lösungsmittel löslich wird oder aber die Löslichkeit in diesem Stoff deutlich herabsetzt. Die Lackbeschichtung erfolgt dadurch, dass man den Siliciumwafer in schnelle Rotation versetzt und genau in seiner Mitte einen wohldosierten Tropfen des Lacks aufbringt. Durch die Fliehkraft fließt der Tropfen schnell auseinander, und der Wafer ist danach mit einer wenige 100 Nanometer dicken Schicht des Lackes überzogen.
 
Nach einem Trocknungsschritt bringt man in sehr kleinem Abstand über dem Wafer die Maske, welche wie bei klassischen Druckverfahren genau das Muster der auf dem Wafer aufzubringenden Strukturen enthält, an und justiert beides in einer Belichtungsmaschine. Die Maske wird nun mit (meist ultraviolettem) Licht bestrahlt, die darauf angeordneten Absorberstrukturen sind undurchlässig für die verwendete Wellenlänge und werfen ihren Schatten auf die Lackschicht. Wurde ein Positivresist verwendet, so sind die bestrahlten Bereiche nach der Belichtung chemisch verändert und können nun durch Spülen des Wafers in einem Entwicklerbad entfernt werden, während die unbestrahlten Bereiche nicht angegriffen werden. Beim Negativresist ist es genau umgekehrt.
 
Sollen viele identische Schaltkreise auf demselben Wafer nebeneinander erzeugt werden, so kann auch eine Maske verwendet werden, die das zu belichtende Muster nur einmal in größerem Maßstab enthält. Dieses Muster wird über eine Verkleinerungsoptik auf den Wafer projiziert, und zwar Schritt für Schritt mit einem Waferstepper, bis der Wafer die gewünschte Anzahl von Mustern trägt.
 
Anschließend werden die belichteten Bereiche des Photolacks mit einem passenden Lösungsmittel herausgewaschen und die dadurch freigelegten Siliciumdioxidbereiche mit einer speziellen Ätzlösung entfernt. Ein Beispiel für eine oft benutzte Ätzflüssigkeit ist »HNA«, eine Mischung aus Fluss-, Salpeter- und Essigsäure. Sie ätzt Silicium mit einer Geschwindigkeit von 7 Mikrometern pro Minute, das schützende Siliciumdioxid aber nur mit 70 Nanometern pro Minute, also hundertmal langsamer. Danach löst man chemisch auch den unbelichteten Photolack ab. Bringt man nun den Wafer in einen Ofen mit etwa 900 bis 1200 Grad Celsius, der einen Dotierungsstoff in Gasform enthält, etwa Bor oder Phosphor, so kann dieser in die freigelegten Halbleiterbereiche eindiffundieren. Jetzt wird der dotierte Bereich wieder mit einer Siliciumdioxidschicht geschlossen. Diese Schritte können wiederholt werden, wobei immer komplexere Strukturen entsteht, und am Ende liegt die aus einem Transistor und einem Widerstand bestehende Schaltung vor. Kontaktieren und das abschließende Aufbringen einer Oxidschutzschicht vervollständigen den Wafer.
 
Maskenherstellung mit dem Elektronenstrahlschreiber
 
Die Masken, die man zur Belichtung der Photolackschicht benötigt, müssen natürlich erst einmal in der nötigen Präzision hergestellt werden. Dies vollbringt ein Elektronenstrahlschreiber. Er ähnelt in seinem Aufbau einem Elektronenmikroskop: Eine Kathode emittiert unter Hochspannung Elektronen, welche durch mehrere Beschleunigungsspannungen auf sehr hohe Energien gebracht werden und durch magnetische Felder, die wie Linsen wirken, zu einem dünnen Strahl gebündelt und auf das Target, also die Probe oder das Werkstück, fokussiert werden. Durch seitlich wirkende elektrische oder magnetische Felder kann der Strahl zudem noch an jede Stelle des Targets gelenkt werden beziehungsweise dieses abrastern. Um eine Maske zu erzeugen, wird eine Glas- oder Quarzplatte, die mit einer wenige 100 Nanometer dünnen Chromschicht und darüber einer dünnen Resistschicht bedeckt ist, als Target benutzt. Das Maskenmuster wird nun erzeugt, indem die Positionsdaten der gewünschten Absorber elektronisch per Software von einem gespeicherten Datensatz an die Steuerung des Elektronenstrahls übertragen werden. Wie beider bereits beschriebenen lithographischen Waferstrukturierung können die beschriebenen Bereiche des Resists chemisch entfernt und anschließend die an diesen Stellen freigelegten Chrombereiche weggeätzt werden. Danach erhält man durch Entfernen des verbliebenen Resists die Chrommaske, den »Master« für alle damit zu erzeugenden Schaltkreise.
 
Elektronenstrahlschreiber erreichen Auflösungen bis hinab zu etwa 20 bis 50 Nanometern. Andere Direktschreibverfahren für Masken sind das Laserstrahlschreiben und das Ionenstrahlschreiben. Bereits ein einziger Fehler auf der Chrommaske kann diese völlig unbrauchbar machen. Deshalb werden Elektronenstrahlschreiber unter strengsten Reinraumbedingungen betrieben und Chrommasken nur in hermetisch verschlossenen Hüllen transportiert.
 
Auf dem Weg zur Massenfertigung
 
So kompliziert das Lithographieverfahren insgesamt erscheinen mag, es birgt erhebliche Vorteile: So können auf einer einzigen Siliciumscheibe viele komplexe Schaltkreise nebeneinander realisiert werden. Das Aufbringen der Siliciumdioxidschicht und das Dotieren können in denselben Öfen meist für eine größere Anzahl Wafer gleichzeitig durchgeführt werden. Präzise mechanische Justierungen erlauben die genaue Positionierung der Masken relativ zu den durch vorherige Belichtungen entstandenen Strukturen. Das Zersägen des Wafers in die einzelnen Schaltkreise erfolgt vollautomatisch mithilfe der schon zur Positionierung der Masken verwendeten Justierung.
 
In den Sechzigerjahren nahm der Integrationsgrad der Chips bereits zügig zu. Zu den ICs mit festverdrahteten Funktionen (zum Beispiel Speicherchips) gesellte sich 1971 der erste extern programmierbare Chip, für den sich die Bezeichnung Mikroprozessor einbürgerte.
 
 Vom Planartransistor zum MOSFET-Speicherchip
 
Wichtigstes Kriterium für ein großserientaugliches Mikrostrukturierungsverfahren ist die Fähigkeit, die gewünschten Funktionselemente reproduzierbar, also mit möglichst geringen Toleranzen herzustellen. Nur dann ist auch gewährleistet, Strukturen im Mikro- und Nanometerbereich überhaupt realisieren und nutzen zu können. So war es ein Nachteil der frühen Flachtransistoren, dass die Laufwege der Ladungsträger durch die Basis noch relativ lang waren. Dadurch schieden Anwendungen in der Hochfrequenztechnik aus, da kein Ladungsträgerdurchgang durch die Basis mit dem schnellen Wechsel der Feldstärke Schritt halten konnte. Aus diesen Gründen muss die Basis so dünn wie möglich gehalten werden (typischerweise 0,3 Mikrometer bei einer Frequenz von einem Gigahertz) und ihre Reinheit möglichst hoch. Die Defektelektronen, die im p-n-p-Transistor den zu steuernden Strom darstellen, müssen gegenüber den Elektronen in der Basis klar in der Überzahl sein, dies erreicht man, indem man das Emittermaterial stark p-dotiert. Die Methode des Dotierens durch Eindiffundieren schuf hier bereits deutlich Abhilfe.
 
Feldeffekttransistoren
 
Ein weiterer Durchbruch hin zu noch stromsparenderen, kostengünstiger herzustellenden integrierten Schaltungen lag in der Einführung des Feldeffekttransistors (FET). Er hat mit der Elektronenröhre gemeinsam, dass bei ihm kein Steuerstrom, sondern nur das von einer Steuerspannung erzeugte elektrische Feld benutzt wird. Bei einem n-p-n-Transistor werden in p-dotiertem Material zwei flache, n-dotierte Inseln eindiffundiert beziehungsweise implantiert; sie sind nur durch eine schmale p-leitende Zone getrennt. Die beiden Inseln tragen Metallkontakte und heißen hier Source (Quelle) und Drain (Senke) anstelle von Emitter und Kollektor. Der dazwischen liegende p-leitende Bereich, das Gate (Tor), ist ebenfalls mit einem Metallkontakt versehen, von diesem jedoch durch eine Oxidschicht getrennt. Aufgrund dieses Aufbaus spricht man bei diesem Transistortyp von einem MOSFET (MOS: metal, oxide, semiconductor, also Metall, Oxid, Halbleiter). Aus MOSFETs sind heute die meisten Speicherchips und Prozessoren aufgebaut.
 
Bei diesem Aufbau gilt, dass, unabhängig von der zwischen Source und Drain anliegenden Spannung, ohne Steuerspannung immer einer der beiden p-n-Übergänge in Sperrrichtung geschaltet ist. Erst wenn an das Gate eine positive Spannung angelegt wird, werden durch das entstandene elektrische Feld die Defektelektronen aus dem Gatebereich in das Substrat hineingedrückt und stattdessen Elektronen angezogen. Es entsteht auf diese Weise ein n-leitender Kanal zwischen Source und Drain — der Transistor ist durchgeschaltet, ein Strom aus Elektronen kann von Source zu Drain fließen. Im geschalteten Zustand fließt beim FET kein Steuerstrom, nur während des Schaltens selbst, da Gate-Elektrode, Isolatorschicht und darunterliegendes p-Material einen Kondensator bilden, der beim Schalten ge- oder entladen wird.
 
 Reinräume
 
Mikroelektronische Chips und viele Produkte der Mikrotechnik werden in Reinräumen hergestellt. Dies sind Bereiche mit künstlicher, über hochaktive Filter gereinigter Atmosphäre, in denen nicht nur eine konstante Temperatur und Luftfeuchtigkeit eingehalten, sondern zudem oft noch mit gefiltertem, also farbig verändertem Licht gearbeitet wird. Warum sind Chips so überaus empfindlich?
 
Man kann sich leicht vorstellen, dass bei den winzigen Abmessungen der Strukturen auf dem Chip selbst, aber auch auf den benutzten Masken ein ebenso winziger Partikel bereits eine falsche Funktion hervorrufen kann. Der gesamte Chip wird dadurch zum Ausschuss. Solche feinen Partikel können durch Abrieb entstehen, zum Beispiel beim Greifen der Wafer mit Pinzetten oder durch die Umwälzung der Entwicklerflüssigkeit in einem Becken. Die Hauptquelle der Verunreinigungen ist jedoch der Mensch. Bereits bewegungsloses Sitzen führt zu einer Abgabe von etwa 300 000 Partikeln mit einer Größe von mehr als einem halben Mikrometer pro Minute! Durch einfaches Kopfschütteln oder Nicken erhöht sich diese Zahl gleich auf das Doppelte! Faserstückchen der Bekleidung, Haare, Schuppen und andere Hautpartikel werden durch die Wärmeströmung, die der menschliche Körper erzeugt, in die Raumluft hochgetragen. Aber auch ohne dies bleiben solche feinen Teilchen lange in der Luft schweben: Durch ihre gegenüber dem Volumen und damit der Masse extrem große Oberfläche unterliegen sie vor allem der Reibung mit den sich in Bewegung befindenden Molekülen der Luft. Die Schwerkraft, die ein Sandkorn schnell zum Herabfallen zwingt und damit unschädlich macht, spielt hier fast keine Rolle — solche Schwebstoffpartikel bleiben sehr lange in der Luft.
 
Verursachen staubförmige Verunreinigungen auch nur einen einzigen Defekt pro Quadratzentimeter Chipfläche und Maskenbelichtungsschritt in einem Prozess, zu dem acht Masken benötigt werden, so sinkt die Ausbeute bei der Herstellung eines 60 Quadratmillimeter großen Chips auf drei Prozent! Verständlich deshalb der Aufwand, der in den Chipfabriken der großen Elektronikkonzerne getrieben wird, um solche verschmutzungsbedingten Defekte unter allen Umständen zu vermeiden.
 
Filter mit Porenweiten von 0,1 Mikrometern filtern Prozessgase und -flüssigkeiten unmittelbar vor der Nutzung im jeweiligen Prozessschritt. Reinraumkleidung, bestehend aus Kittel, Haube, Mundschutz und Handschuhen, hergestellt aus selbst möglichst nicht partikelgenerierendem Material, hüllt das Personal ein. Und die spezielle Führung des Luftstroms, bei der die gefilterte Umluft möglichst über den Arbeitsbänken aus vielen parallelen Düsen nach unten geblasen wird und somit immer eine Strömung vom Arbeitsbereich weg zum Raum und zum Mitarbeiter hin und nie umgekehrt zugelassen wird, sind wirksame Mittel, um die Wahrscheinlichkeit eines Defekts herabzusetzen.
 
Betreten wird ein Reinraum durch eine speziell konstruierte Schleuse. Im Vorraum zieht man sich um, legt Schutzkleidung an und schlüpft in spezielle Schuhe. Dann läuft man über eine Art klebrigen Teppich, der Staub von den Schuhsohlen aufnehmen soll, zur eigentlichen Reinraumtür. Öffnet man diese, so spürt man einen entgegenkommenden Luftstrom: Im Reinraum herrscht immer ein gewisser Überdruck, sodass nie kontaminierte Luft hinein-, sondern nur saubere gefilterte Luft herausgelangen kann. Die empfindlichen Wafer selbst sind meist in Losen zu 15 Stück in Boxen untergebracht, die kleine abgeschlossene Reinräume darstellen. In Bereichen, in denen eine geführte Luftströmung herrscht, werden die Boxen geöffnet und den jeweiligen Prozessanlagen, beispielsweise Diffusionsöfen, Belichtungsanlagen oder Ätzbänken, zugeführt. Um den Kontakt mit Menschen auf ein Minimum zu beschränken, übernimmt das Be- und Entladen der Boxen meist ein Roboter.
 
Die Reinraumklassen
 
Zur Messung des Partikelgehaltes in der Luft eines Reinraums dienen optische Zähler, die feinste Staubkörnchen und Härchen mit Dimensionen zwischen 0,5 und 5 Mikrometer aufgrund ihres Streulichtes detektieren können. Normale Außen- oder auch Gebäudeluft enthält weit über 100 000 Partikel dieser Größe pro Kubikfuß (ein Kubikfuß sind etwa 27 Liter). Will man die Partikeldichte auf 10 000 pro Kubikfuß verringern (man spricht von Reinraumklasse 10 000), so ist bereits eine effiziente Filterung und ein etwa 50facher Luftwechsel pro Stunde erforderlich. Wirklich anspruchsvolle Arbeiten können auch hier noch kaum ausgeführt werden, man spricht vom »Graubereich«, während der »Weißbereich« erst bei Reinraumklasse 1000 beginnt. Bereiche mit Reinraumklasse 100 oder gar 10, in denen ein Elektronenstrahlschreiber installiert oder eine Maskenbelichtung durchgeführt werden können, sind nur durch 300fachen stündlichen Luftwechsel und ganz spezielle Luftstromführung möglich. Der Mensch sollte in solchen Bereichen möglichst nicht mehr häufig Hand anlegen müssen.
 
 
Annähernd alle drei Jahre verlässt mittlerweile eine neue Generation von Speicherchips und Prozessoren die Chip-Fabriken (»Wafer-Fabs«) der großen Halbleiterkonzerne. Für das Jahr 2000 wird der Branche ein Weltjahresumsatz von 350 Milliarden Dollar vorausgesagt (1996 waren es noch 120 Milliarden, Ende der 1960er-Jahre 25 Milliarden und 1960 gerade einmal vier Milliarden). Dann werden etwa 1,4 Millionen Menschen weltweit mit der Herstellung von Halbleiterchips und den zugehörigen Verarbeitungsverfahren beschäftigt sein. 1996 waren es nur die Hälfte. Trifft die Prognose zu, dürfte sich die Halbleiterindustrie dann zum größten produzierenden Industriezweig der Welt entwickelt haben.
 
Die große Nachfrage ist ungebrochen, und die Hersteller setzen alles daran, durch Verbesserung ihrer Produktionsmethoden, noch weiter gehende Integration und kostengünstigere Batch-Verfahren die Konkurrenten zu überbieten. Wurden Mitte der 1970er-Jahre für die ersten ICs noch Wafer mit drei Zoll Durchmesser prozessiert, so sind es Ende der 1980er bereits Sechs-Zoll-Wafer und seit Mitte der 1990er-Jahre sogar Acht-Zoll-Wafer. Der nächste Schritt, der in den jetzt in Bau befindlichen Wafer-Fabs unternommen werden wird, ist der zum Zwölf-Zoll-Wafer, von dem bereits Prototypen existieren. Sie bieten zweieinhalbmal so vielen Chips Platz wie ein Acht-Zoll-Wafer, beispielsweise 230 256-Megabit-Chips mit einer Fläche von 260 Quadratmillimetern pro Chip. Die Kosten pro Wafer dürften dabei zwar um 70 Prozent steigen, die Kosten pro Chip jedoch um 20 bis 40 Prozent fallen. Der Schritt zum Zwölf-Zoll-Wafer bringt nicht nur einen großen Einschnitt für die Lithographieverfahren, sondern vor allem auch für die Produktion des Ausgangsmaterials. Während heute Silicium-Reinstzylinder mit 0,8 Millimetern pro Sekunde aus Tiegeln mit 90 Kilogramm flüssigem Silicium gezogen werden, wird sich diese Menge verdreifachen. Der gesamte Vorgang wird Tage in Anspruch nehmen, während der die Prozessbedingungen extrem konstant gehalten werden müssen. Dies bedarf auch gänzlich neuer Techniken des Ziehens, Rührens, Reinigens und beispielsweise Polierens: Eine Unebenheit von 0,2 Mikrometern ist bereits intolerabel, da sonst im Lithographieprozess Defokussierungen auftreten.
 
Diese rasante Entwicklung der Mikroelektronik unterliegt — rückblickend betrachtet — interessanterweise einer gewissen Gesetzmäßigkeit, die als das Moore'sche Gesetz bekannt wurde: Seit etwa 1970 gilt, dass sich die Leistungsfähigkeit der Prozessorchips alle 18, die Kapazität der Speicherchips alle 15 Monate verdoppelt. Alle sechs Jahre ergibt sich durch Kosten sparendere Verfahren eine Reduktion der Kosten pro gespeichertem Bit auf zehn Prozent.
 
Wo stehen wir heute? Wohin geht der Trend? Wo liegen die Grenzen? Auf dem Speichersektor sind heute (1998/99) 16-Megabit-Speicher (DRAMs) in Massenproduktion. Ihre kleinsten Strukturbreiten liegen bei etwa 0,5 Mikrometern. 64-Megabit-Chips mit 0,35 Mikrometer großen Strukturen befinden sich in der Vorproduktion und 256-Megabit-DRAMs mit 0,25 Mikrometer breiten Strukturen in der Entwicklung. Im Jahr 2000 werden wahrscheinlich die ersten Gigabit-Speicherchips in die Produktion gehen — mit Strukturen um 0,18 Mikrometer!
 
Die Grenzen der Lithographieverfahren liegen wohl bei etwa 0,1 Mikrometer Strukturgröße. Das limitiert die bisherigen Verfahrenstechniken. Direktschreibverfahren mit Elektronen- oder Ionenstrahlen können zwar Strukturen unter 0,1 Mikrometern Breite generieren, arbeiten jedoch nicht parallel und damit sehr langsam. Aber auch die Natur der Elektronen beschränkt die Strukturgrößen, da sich bei Abmessungen unter zehn Nanometern Quanteneffekte bemerkbar machen, wie diskrete Energieniveaus, Tunneleffekte und Quanteninterferenzen. Diese erfordern eine völlig neue Betrachtungsweise, könnten aber auch neue Bauelemente und Rechnerarchitekturen ermöglichen. Während heute bei einem einzigen Schaltvorgang auf einem Speicherchip noch etwa 100 000 Elektronen benötigt werden, denkt man in den führenden Forschungslaboratorien bereits über den Einelektronen-Transistor nach.
 
Dr. Hans-Dieter Bauer
 
Weiterführende Erläuterungen finden Sie auch unter:
 
Mikrotechnik: Typische Herstellungsverfahren
 
 
Hilleringmann, Ulrich: Silizium-Halbleitertechnologie. Stuttgart u. a. 21999.
 Köning, Rainer: Nanostrukturierung mit dem Rastertunnelmikroskop. Braunschweig 1997.
 Möschwitzer, Albrecht: Grundlagen der Halbleiter- & Mikroelektronik. 2 Bände. München u. a. 1992.
 Most, Karl-Heinz: Raffinierte IC's. Vielseitig einsetzbar. Zukunft auf Quadrat-Millimetern. 2 Bände. Stuttgart 1987-89.
 Münch, Waldemar von: Einführung in die Halbleitertechnologie. Stuttgart 1993.
 Schäfer, Wolfgang / Terlecki, Georg: Halbleiterprüfung. Licht- und Rasterelektronenmikroskopie. Heidelberg 1986.
 
Technik für reine Räume. Verfahren, Systeme und Apparate, herausgegeben von Wolfgang F. Hess. Essen 1993.
 Widmann, Dietrich u. a.: Technologie hochintegrierter Schaltungen. Berlin u. a. 21996.
 
Wie funktioniert das? Der Computer. Basiswissen über Hardware und Software, herausgegeben von Meyers Lexikonredaktion. Bearbeitet von Ewald von Puttkamer. Mannheim u. a. 21994.
 Wilke, Klaus-Thomas: Kristallzüchtung, bearbeitet von Joachim Bohm. 2 Bände. Neuausgabe Thun u. a.21988.

Universal-Lexikon. 2012.

Игры ⚽ Нужен реферат?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Miniaturisierung: Zukunft und Grenzen —   Die Mikroelektronik, der Pfadfinder der Mikrotechnik, hat innerhalb nur einer Generation unsere Welt und unser aller Leben verändert. Schlüssel zu diesem Erfolg waren Fortschritte in unterschiedlichen Sparten der Physik, aber vor allem die… …   Universal-Lexikon

  • Miniaturisierung: Wozu? —   Möglichst leichte Geräte zu entwickeln, die mit möglichst geringem Materialaufwand herzustellen sind und sparsam und schnell arbeiten, ist seit jeher das Bestreben der Erfinder und Ingenieure. Dies geschah lange Zeit im Rahmen der Feinmechanik …   Universal-Lexikon

  • Miniaturisierung — Mi|ni|a|tu|ri|sie|rung 〈f. 20; El.〉 das Miniaturisieren, das Miniaturisiertwerden ● die extreme Miniaturisierung von Schaltkreisen und Maschinen * * * Mi|ni|a|tu|ri|sie|rung, die; , en (Elektrot.): Entwicklung u. Herstellung kleinster… …   Universal-Lexikon

  • Mikrotechnik — ◆ Mi|kro|tẹch|nik 〈f. 20; unz.〉 1. die angewandte Technik bei mikroskop. Untersuchungen 2. Herstellung mikroskop. Präparate ◆ Die Buchstabenfolge mi|kr... kann in Fremdwörtern auch mik|r... getrennt werden. * * * Mikrotechnik,  … …   Universal-Lexikon

  • Mikroelektronik — ◆ Mi|kro|elek|tro|nik auch: Mi|kro|elekt|ro|nik 〈f. 20; unz.〉 Teilgebiet der Elektronik, das sich mit der Herstellung u. dem Einsatz kleinster elektr. Bauelemente u. hochintegrierter Schaltkreise befasst ◆ Die Buchstabenfolge mi|kr... kann in… …   Universal-Lexikon

  • Mikrotechnik: Typische Herstellungsverfahren —   Den Unterschied zwischen Mikroelektronik und Mikrotechnik kann man am ehesten anhand der Idee einer implantierbaren Medikamenten Mikrodosierpumpe aufzeigen. Diese soll möglichst klein sein und bei Bedarf beispielsweise Insulin an den Körper… …   Universal-Lexikon

  • integrierte Schaltung — IC; Integrierter Schaltkreis * * * I integrierte Schaltung,   Chip. II integrierte Schaltung,   integrierter …   Universal-Lexikon

  • Microprozessor — Die Artikel Prozessor (Hardware), Mikroprozessor und Hauptprozessor überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte… …   Deutsch Wikipedia

  • Mikroprocessor — Die Artikel Prozessor (Hardware), Mikroprozessor und Hauptprozessor überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte… …   Deutsch Wikipedia

  • ΜP — Die Artikel Prozessor (Hardware), Mikroprozessor und Hauptprozessor überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Beteilige dich dazu an der Diskussion über diese Überschneidungen. Bitte… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”